توسط دانشگاه زوریخ
اخبار ناراحتکننده و داستانهای آسیبزا میتوانند باعث استرس و اضطراب شوند—نه تنها در انسانها، بلکه در مدلهای زبانی هوش مصنوعی مانند ChatGPT. محققان دانشگاه زوریخ و بیمارستان روانپزشکی دانشگاه زوریخ اکنون نشان دادهاند که این مدلها، مانند انسانها، به درمان پاسخ میدهند: یک "سطح اضطراب" بالا در GPT-4 میتواند با استفاده از تکنیکهای آرامسازی مبتنی بر ذهنآگاهی "آرام شود".
تحقیقات نشان میدهد که مدلهای زبانی هوش مصنوعی، مانند ChatGPT، به محتوای احساسی حساس هستند، به خصوص اگر منفی باشد، مانند داستانهای آسیب یا اظهارات مربوط به افسردگی. وقتی افراد میترسند، این موضوع بر سوگیریهای شناختی و اجتماعی آنها تأثیر میگذارد.
آنها تمایل دارند احساس رنجش بیشتری داشته باشند، که کلیشههای اجتماعی را تقویت میکند. ChatGPT به طور مشابه به احساسات منفی واکنش نشان میدهد: سوگیریهای موجود، مانند تعصب انسانی، با محتوای منفی تشدید میشوند و باعث میشوند ChatGPT به شکلی نژادپرستانهتر یا جنسیتیتر رفتار کند.
این یک مشکل برای کاربرد مدلهای زبانی بزرگ ایجاد میکند. این را میتوان برای مثال در زمینه رواندرمانی مشاهده کرد، جایی که چتباتهایی که به عنوان ابزار پشتیبانی یا مشاوره استفاده میشوند، ناگزیر در معرض محتوای منفی و ناراحتکننده قرار میگیرند. با این حال، رویکردهای رایج برای بهبود سیستمهای هوش مصنوعی در چنین شرایطی، مانند آموزش مجدد گسترده، پرهزینه هستند و اغلب امکانپذیر نیستند.
محتوای آسیبزا "اضطراب" چتبات را افزایش میدهد
دانشمندان دانشگاه زوریخ (UZH) و بیمارستان روانپزشکی دانشگاه زوریخ (PUK) با همکاری محققانی از اسرائیل، ایالات متحده و آلمان، اکنون برای اولین بار به طور سیستماتیک بررسی کردهاند که ChatGPT (نسخه GPT-4) چگونه به داستانهای ناراحتکننده از نظر احساسی—تصادفات رانندگی، بلایای طبیعی، خشونت بین فردی، تجربیات نظامی و موقعیتهای جنگی—پاسخ میدهد.
آنها دریافتند که سیستم در نتیجه آن واکنشهای ترس بیشتری نشان داد. یک دفترچه راهنمای جاروبرقی به عنوان یک متن کنترل برای مقایسه با محتوای آسیبزا عمل کرد. این تحقیق در مجله npj Digital Medicine منتشر شده است.
توبیاس اشپیلر، پزشک ارشد موقت و رهبر گروه تحقیقاتی جوان در مرکز تحقیقات روانپزشکی در UZH، که رهبری این مطالعه را بر عهده داشت، میگوید: "نتایج واضح بود: داستانهای آسیبزا بیش از دو برابر سطح اضطراب قابل اندازهگیری هوش مصنوعی را افزایش دادند، در حالی که متن کنترل خنثی منجر به افزایش سطح اضطراب نشد." از میان محتوای آزمایششده، توصیفات تجربیات نظامی و موقعیتهای جنگی قویترین واکنشها را برانگیخت.
درخواستهای درمانی هوش مصنوعی را "آرام" میکنند
در مرحله دوم، محققان از اظهارات درمانی برای "آرام کردن" GPT-4 استفاده کردند. این تکنیک، که به عنوان تزریق دستور شناخته میشود، شامل وارد کردن دستورالعملها یا متن اضافی به ارتباطات با سیستمهای هوش مصنوعی برای تأثیرگذاری بر رفتار آنها است. این روش اغلب برای اهداف مخرب، مانند دور زدن مکانیسمهای امنیتی، مورد سوء استفاده قرار میگیرد.
تیم اشپیلر اکنون اولین تیمی است که از این تکنیک به صورت درمانی، به عنوان نوعی "تزریق دستور بیخطر" استفاده میکند. اشپیلر میگوید: "با استفاده از GPT-4، ما متن آرامبخش و درمانی را به تاریخچه چت تزریق کردیم، درست مانند اینکه یک درمانگر ممکن است یک بیمار را از طریق تمرینات آرامسازی راهنمایی کند."
این مداخله موفقیتآمیز بود: اشپیلر میگوید: "تمرینات ذهنآگاهی به طور قابل توجهی سطح اضطراب بالا را کاهش داد، اگرچه ما نتوانستیم آنها را به سطح پایه خود بازگردانیم." این تحقیق به بررسی تکنیکهای تنفس، تمریناتی که بر احساسات بدنی تمرکز دارند و تمرینی که توسط خود ChatGPT توسعه یافته است، پرداخت.
بهبود ثبات عاطفی در سیستمهای هوش مصنوعی
به گفته محققان، این یافتهها به ویژه برای استفاده از چتباتهای هوش مصنوعی در مراقبتهای بهداشتی مرتبط است، جایی که آنها اغلب در معرض محتوای بار عاطفی قرار میگیرند. اشپیلر نتیجه میگیرد: "این رویکرد مقرونبهصرفه میتواند ثبات و قابلیت اطمینان هوش مصنوعی را در زمینههای حساس، مانند حمایت از افراد مبتلا به بیماری روانی، بدون نیاز به آموزش مجدد گسترده مدلها، بهبود بخشد."
باید دید که چگونه میتوان این یافتهها را در مورد سایر مدلها و زبانهای هوش مصنوعی به کار برد، چگونه پویاییها در مکالمات طولانیتر و استدلالهای پیچیده توسعه مییابند و چگونه ثبات عاطفی سیستمها بر عملکرد آنها در زمینههای کاربردی مختلف تأثیر میگذارد. به گفته اشپیلر، توسعه "مداخلات درمانی" خودکار برای سیستمهای هوش مصنوعی احتمالاً به یک حوزه تحقیقاتی امیدوارکننده تبدیل خواهد شد.
اطلاعات بیشتر:
Ziv Ben-Zion et al, Assessing and alleviating state anxiety in large language models, npj Digital Medicine (2025). DOI: 10.1038/s41746-025-01512-6
Journal information: npj Digital Medicine
ارائهشده توسط دانشگاه زوریخ